Шрифт:
Закладка:
Фильм никогда не был недоступен. Я посмотрел его; это был тот самый редуктивный документальный контент о культурной войне, который есть на Amazon и других потоковых сервисах, созданный для того, чтобы быть провокационным и поляризующим, но не выходящий за рамки того, что должна размещать платформа. Однако дело было не в простом размещении, а в легкости вирусного распространения. Даже когда фильмом можно было поделиться, его сторонники по-прежнему возмущались ограничением на рекламу, поскольку это повлияло бы на охват аудитории. Позиционирование фильма как "подвергшегося цензуре со стороны Twitter", тем временем, вероятно, привлекло к нему гораздо больше внимания, чем он мог бы получить в противном случае.
Роберт Чалдини, психолог, изучающий влияние, много лет назад заметил, что цензура, как оказалось, повышает не только внимание к точке зрения, но и симпатию к ней: "Это создает тревожную возможность того, что особенно умные люди, занимающие слабую или непопулярную позицию по какому-либо вопросу, могут заставить нас согласиться с этой позицией, договорившись о том, чтобы их сообщение было ограничено". Ирония заключается в том, что для таких людей - например, членов периферийных политических групп - наиболее эффективной стратегией может быть не обнародование своих непопулярных взглядов, а их официальная цензура, а затем обнародование цензуры". 39 Сегодня эта стратегия настолько эффективна, что некоторые влиятельные лица заявляют о своем молчании чисто умозрительно. Даже после того, как Маск приобрел компанию, объявил "амнистию" ранее отстраненным и ослабил политику модерации, которую ненавидят активисты правых фракций, влиятельные люди с очень большим количеством подписчиков продолжали утверждать, что их заставляют молчать какие-то злонамеренные силы. Моя активность упала! Происходит что-то странное. Twitter все еще теневой запрет на меня! Должно быть, кто-то из сотрудников Элона все еще верен старому режиму!
Обозначение "речь-доступ" очень важно. Умеренность чревата, но необходима. Полная свобода слова принесет реальный вред - например, беспорядки и радикализация, о которых говорилось в предыдущих главах и которые проявились далеко за пределами Соединенных Штатов. И все же свобода слова также является важнейшей демократической ценностью.
Платформы могут сделать три вещи. Во-первых, они могут создать рамки модерации, руководствуясь международным правом в области прав человека. Эти компании обслуживают глобальное сообщество, и существуют существующие принципы и стандарты, которые позволяют сбалансировать свободу выражения мнений и предотвратить нанесение вреда. TikTok, материнская компания которой основана китайскими предпринимателями, отмечает свою приверженность такому подходу: "Наши принципы сосредоточены на балансе между свободой выражения мнений и предотвращением вреда, принятии человеческого достоинства и обеспечении справедливости наших действий". 40 Приверженность достоинству включает в себя воспитание цивилизованности, уважение местного контекста, поддержку инклюзивности и защиту частной жизни. Совет по надзору Facebook, который выступает в качестве судебного органа, рассматривающего спорные решения о модерации, также использует международную систему прав человека для принятия своих решений. 41
Во-вторых, платформы могут обеспечить, чтобы политика была основана на эмпирических исследованиях вреда. Вред от социальных сетей может включать кибербуллинг, язык ненависти, некоторые виды дезинформации (например, о здоровье) и распространение экстремистских идеологий. Однако концептуальные представления о вреде сильно различаются в разных сообществах. Некоторые сообщества утверждают, что слова - это насилие. Другие считают это нелепым. По мере того как общество пытается справиться с влиянием социальных медиа на отдельных людей и сообщества, крайне важно проводить исследования, чтобы различать вред и моральную панику. Это может включать в себя изучение того, с какими темами следует обращаться более осторожно: С 2013 года Google проводит политику под названием "Ваши деньги или ваша жизнь", которая требует, чтобы результаты поиска, связанные со здоровьем и финансовыми запросами, отвечали более высоким стандартам осторожности. Позиционирование мошенников, пытающихся продать соковые голодания , в верхней части результатов по запросам о лечении рака было бы вредным. Однако эта политика узко ориентирована на явно значимые категории.
Компромисс между высказываниями и вредом может также определяться потенциалом побуждения к реальным действиям. Например, некоторые влиятельные пользователи, такие как мировые лидеры или крупные авторитеты, имеют гораздо больший потенциал для подстрекательства к насилию в реальном мире, поскольку у них есть подписчики, которых они могут мобилизовать на реальные беспорядки. Напротив, малопопулярным аккаунтам, использующим подстрекательство или язык насилия, будет гораздо сложнее поднять настоящую толпу. И все же с влиятельными людьми часто обходятся в одних перчатках, потому что платформы боятся, что они взбудоражат своих поклонников или настроят политиков против платформы. 42 Компаниям, работающим в социальных сетях, необходимо разработать политику, которую им удобно отстаивать, а затем действительно отстаивать ее, даже перед лицом опровержения.
В-третьих, платформы могут сделать приоритетом прозрачное правоприменение с процессом обжалования. Платформы совершают ошибки. При миллионах сообщений, отмеченных для принятия мер, автоматические или человеческие модераторы неизбежно будут иногда ошибаться. Моя команда в Стэнфордской интернет-обсерватории изучала вопросы модерации контента в социальных сетях, связанные с терроризмом, манипулированием государственными субъектами, преследованием, делегитимацией выборов, дезинформацией о здоровье и безопасностью детей. Наши выводы свидетельствуют о том, что политика часто носит реактивный характер, а модерация зачастую носит явно ситуативный характер или применяется неравномерно. А все потому, что самые трудные решения в конечном итоге принимают люди, оперирующие неполной информацией и порой находящиеся под сильным давлением.
Первоначальные действия по модерации часто автоматизированы. ИИ-модеры" обучаются работе с контентом, нарушающим политику платформы, и затем пытаются сопоставить его с новым контентом, который им попадается. Они используются потому, что масштаб модерации на крупных платформах огромен - каждый квартал принимаются меры в отношении миллионов аккаунтов и постов, - а также для защиты психического здоровья модераторов-людей, которым в противном случае приходится смотреть на действительно ужасные вещи. 43
И все же ощущение того, что одна группа модерируется чаще или один человек получает флажки за высказывания, а другие нет, может вызвать чувство обиды и недоверия к процессу. Со временем торговцы возмущением получают преимущество перед усилиями по делегитимации модерации, потому что у них есть реальные ошибки, на которые они могут указать. Проблема схожа с той, с которой сталкиваются институты: одна ошибка в любом месте приводится в качестве доказательства некомпетентности или предвзятости повсюду.
Именно поэтому платформы должны обеспечить подробную прозрачность правоприменения. Если аккаунт понижен в рейтинге ("shadowbanned", в просторечии) или внесен в список небезопасных для рекламы, сообщите ему об этом (и, возможно, подайте апелляцию). Если аккаунт или пост удален, укажите причину на странице приостановки, чтобы посторонние люди тоже могли понять решение. Это был аккаунт государственного деятеля? За разжигание ненависти? Какая политика была нарушена? Эта статистика иногда публикуется в обобщенном виде,